Reflexões sobre a IA na Sala de Aulas (original aqui) Como Não Estamos a Utilizar a IA na Sala de Aulas Por Sonja Drimmer & Christopher J. Nygren

Selecção e tradução de Júlio Marques Mota
Preâmbulo
Na sequência de duas cartas abertas enviada ao atual ministro da Educação, Fernando Alexandre, e como anexo a estas, foram-lhe também enviados dois textos, a saber:
1. Reflexões sobre a IA na Sala de Aulas (original aqui)
Como Não Estamos a Utilizar a IA na Sala de Aula
Por Sonja Drimmer & Christopher J. Nygren
2.O Bajulador de Lorna Finlayson.
São dois textos extraordinariamente importantes, o primeiro porque nos indica o caminho para podermos ter aulas decentes nas Universidades de hoje, o que agora francamente não temos, o segundo porque nos mostra as razões dos silêncios sobre o que se passa nas Universidades e a razão é muito simples: quem não é catedrático tem que se calar se não quer ver a carreira profissional estragada. Uma carreira só pode ser bem feita se se respeitar a lei da rolha: o silêncio. Se se é catedrático e se quer ser candidato a múltiplas nomeações governamentais, então também aqui, o melhor é estar calado.
Os textos foram enviados ao Ministro pelo facto de tornarem estas questões bem claras e por estas mesmas razões os publicamos no nosso blog.
JMM

 

                                                                                                                                                                          

Reflexões sobre a IA na Sala de Aulas (original aqui)

Como Não Estamos a Utilizar a IA na Sala de Aulas

por Sonja Drimmer & Christopher J. Nygren

Premissa

“Engenharia de Ordens no computador “é uma expressão que se tornou banalizada desde a ampla disponibilidade de aplicações de IA generativa, como o ChatGPT. A ideia é que os resultados dos grandes modelos de linguagem (LLMs) nos quais essas aplicações se baseiam são tão bons quanto as ordens de execução que são inseridas: ordens vagas resultam em respostas igualmente vagas. E assim nasceu a corrida para formar profissionais em engenharia de ordens. Infelizmente, a bolha parece ter estourado antes mesmo que a primeira geração de estudantes fosse treinada para essa carreira.

Fomos convidados a responder a uma ordem como forma de participação neste boletim: “Como é que está a utilizar a IA na sala de aula?” Embora tenhamos aceitado este convite, estamos envolvidos no ato mais humanista que podemos imaginar — recusando esta ordem.

O aparecimento da aprendizagem de máquina e, em particular, da visão computacional, junto com programas populares de geração de texto, como o ChatGPT, levou os educadores a procurar soluções “à prova de ChatGPT”: alguns criaram novos tipos de tarefas de escrita que não se prestam à geração automática de texto; outros, entretanto, citaram a “inevitabilidade” da incursão dessa tecnologia na educação e, em vez de combatê-la, decidiram incorporar alguns elementos de IA na sua pedagogia. Em sua contribuição para este boletim, Stephen Perkinson ofereceu uma valiosa experiência em primeira mão sobre como é tentar incorporar o uso de LLMs e da “IA generativa” numa sala de aula dedicada ao estudo da Idade Média. Há muito a aprender com a experiência do Dr. Perkinson, e aqueles que desejam incorporar a chamada IA em sala de aula fazem bem em aprender com as suas experiências.

Como estudiosos que há vários anos se vêm dedicando ao impacto dessa nova tecnologia no estudo da história da arte, aconselhamos o seguinte para aqueles que pensam em incorporá-la à sala de aula: não o façam.

Acreditamos que as desvantagens intelectuais, éticas e institucionais do uso dessa tecnologia são tão significativas que normalizar a sua integração na pedagogia representa riscos que ultrapassam de longe quaisquer benefícios que se possam associar a ela. Na verdade, argumentaríamos que, até agora, os únicos benefícios do uso da IA na pesquisa em história da arte têm sido demonstrar o quão mal equipada ela está para conduzir pesquisas nas humanidades históricas.

O objetivo de nossa contribuição aqui é oferecer um resumo dessas desvantagens (para uma discussão mais aprofundada, ver nosso artigo “Art History and AI: Ten Axioms”) e algumas sugestões concretas para resistir à incursão da aprendizagem de máquina na pedagogia da história da arte.

Ambiental: As necessidades energéticas para executar os LLMs, nos quais programas como o ChatGPT funcionam, são tão altas que contribuem massivamente para emissões prejudiciais e, ao mesmo tempo, perturbam o fornecimento de energia de maneiras que exacerbam a desigualdade económica. Da mesma forma, a água necessária para resfriar os data centers já está a exercer uma forte pressão sobre a retenção e o fornecimento de água. Mesmo que os avanços mais recentes da DeepSeek prometam ser menos intensivos em recursos, pesquisas demonstraram que, em um caso do que é conhecido como Paradoxo de Jevons, ganhos de eficiência estimulam um aumento no consumo.

Ética: Existe um paradoxo particular que torna a IA essencialmente inútil como ferramenta para estudar a história. Todo o objetivo do que fazemos como historiadores é procurar histórias não contadas… elementos da história da humanidade que sejam novos e inesperados. Há uma disjunção epistemológica fundamental entre o que fazem os historiadores com doutoramento feito e o que faz o ChatGPT e os seus semelhantes: os primeiros vasculham, de forma meticulosa, intencional e rigorosa, uma montanha de documentos feitos por humanos em busca de pormenores reveladores que se desviem do padrão, que ofereçam indícios de mudança cultural ou elementos que a humanidade tenha incorporado em atividades aparentemente banais; os segundos processam terabytes de dados colhidos por máquinas para prever qual será o próximo token mais provável numa sequência e, quando esses tokens são palavras, eles podem ou não resultar numa frase gramaticalmente coerente.

Institucional: A tecnologia educacional (Ed tech) é uma indústria própria, cujos objetivos estão muito distantes daqueles dos educadores que ela supostamente serve. Como Audrey Watters mostrou em seu livro Teaching Machines: The History of Personalized Learning (MIT Press, 2023), o zelo em “otimizar” a educação por meio da tecnologia remonta a bem mais de um século, e tanto as promessas feitas quanto a linguagem usada para promovê-las mudaram notavelmente pouco. Trata-se de uma indústria lucrativa que necessita de produtos sempre novos para vender às instituições de ensino, convencendo tanto administradores quanto educadores de que os professores podem melhorar os resultados da aprendizagem e preparar os estudantes para atender às exigências do mercado de trabalho — tudo isso enquanto “ampliam a escala” ao integrar novas tecnologias à sala de aula. Lembra-se dos Cursos Online Abertos e Massivos, ou MOOCs em sigla inglesa? Quanto tempo e dinheiro foram desperdiçados investindo na infraestrutura tecnológica e física necessária para realizar aquilo que, no fim de contas, todos nós tivemos de fazer sob a pressão de uma pandemia global — cujos efeitos devastadores sobre a educação ainda sentimos hoje?

No entanto, em última análise, a nossa objeção à incorporação de LLMs e de IA generativa na sala de aula é mais fundamental: não apenas ela encurta os caminhos da aprendizagem, mas também potencialmente anula aquilo que entendemos como nosso compromisso pedagógico fundamental com os alunos e nosso compromisso académico para com o passado. Isso pode parecer uma retórica exagerada, mas é importante reservar um momento para refletir sobre o que fazemos em sala de aula. O que é que, em termos de primeiro princípio, estamos a tentar alcançar por meio do estudo da Idade Média e da modernidade inicial? Porque é que continuamos a acreditar que é importante educar os alunos sobre o passado? Ter uma resposta para essa pergunta é um primeiro passo crucial para compreender que a promoção da IA na educação não é nada menos do que uma tentativa de colonizar a universidade com a noção empobrecida de “aprendizagem” que está no cerne da chamada “Aprendizagem de Máquina.”

Acreditamos que aprender é algo semelhante a um processo prolongado de aquisição de conhecimento incorporado, que atravessa a experiência acumulada, o cálculo instantâneo, a aculturação e a educação institucionalizada — fatores estes que, combinados, permitem a alguém operar no mundo. Isso vai desde saber não comer frango cru e “não pegar nas coisas compridas e escamosas com pinças” até “colocar o cinto de segurança antes de sair da garagem”. Mas também abrange sentimentos como “eu identifico-me com Hamlet porque também já me perguntei como seria cometer suicídio e deixar de existir” ou “como voltamos a fazer literatura após a Peste Negra? Posso imaginar que teria sido difícil fazer ‘arte’ em 1350.” Todas essas coisas são produto de um processo de “aprendizagem”. Parte delas é vivida, parte institucionalizada, e outra parte traduz um instinto humano natural de sobrevivência e empatia. Se é isso que queremos dizer por “aprendizagem”, é vital que, a cada passo, insistamos na humanidade desse processo.

Computadores são bons em reconhecer motivos; mas reconhecer motivos e prever tokens não significa aprendizagem. Continuar a chamar a isso de ‘aprendizagem automática’ ou ‘inteligência artificial’ é concordar com uma metáfora falaciosa que coloca em risco danos irreparáveis a estudantes, à cidadania e, por extensão, à humanidade, na forma de uma morte por múltiplas facadas.

Uma definição simples de aquisição de conhecimento, a aquisição de conhecimentos, poderia ser algo assim: uma das formas mais elevadas de aprendizagem é ter desenvolvido a capacidade de olhar para uma situação e imaginá-la de outra maneira. Isso abrange toda a gama da aquisição de conhecimentos, desde o plano ético (teria sido correto estrangular o bebé Pol Pot no seu berço?) até ao plano estético (Beethoven, mas com guitarras elétricas) ou ainda até ao plano histórico (vivo num mundo com vigas de aço, mas consigo imaginar como teria sido entrar numa catedral gótica e não entender como é que o edifício suportava o seu próprio peso enquanto se erguia em direção ao céu?). A Machine Learning (O Aprendizado de Máquina ou Aprendizagem automática) agora venceu um jogador humano no jogo GO. Isso por muito tempo foi considerado uma façanha impossível de “aquisição de conhecimentos”. No entanto, o jogo foi ganho por uma máquina capaz de processar permutações e recombinações para fazer o movimento matematicamente “ideal”. Esse é um feito impressionante da engenharia computacional. Mas a “aprendizagem automática” entrou em cena quando os mestres do GO começaram a ver o jogo de outra maneira, procurando encontrar a racionalidade por detrás de um movimento matematicamente “ideal”. O nosso trabalho como educadores é garantir que os nossos alunos estejam a aprender, e isso significa pensar criticamente sobre o que significou ser humano em diferentes momentos da história. O que é que o termo “amor” significava no século XIV? Como era um “retrato” na Idade Média e como é que isso difere das centenas de “retratos” que o leitor tira com o seu iPhone? Estas são perguntas às quais uma máquina é fundamentalmente incapaz de responder, porque é feita de silício e não compartilha nenhuma afinidade com os seres humanos que viveram há centenas de anos. Pela nossa parte, continuaremos a tentar introduzir os nossos alunos naquilo a que Marc Bloch chamou de “solidariedade das eras”, em toda a sua complexidade.

Sugestões

Embora, nos últimos anos, as universidades tenham promovido a “produtividade” dos estudantes (projetos, portfólios online dos seus trabalhos, informações nas redes sociais sobre os seus artigos de investigação, e a lista continua), pouco desses incentivos e esforços para gerar resultados e criar conteúdos irá realmente servir para o objetivo principal da educação, que é fomentar a capacidade de pensar bem, ler bem, ouvir bem e observar bem. O ensino superior fortalece esse processo; se vamos ensinar materiais sofisticados e conteúdos desafiadores, mas para isso os estudantes precisam de aprender a pensar, ler, ouvir e observar à medida que avançam. A ênfase na “criação de conteúdo” é prejudicial à missão educacional. “Conteúdo” é um termo vago que foi definido de tal forma que um trabalho de dez páginas sobre o relicário de Sainte Foy, produzido por um modelo de linguagem (LLM), e que seja gramaticalmente correto, conceitualmente aceitável e procedimentalmente impecável, conta como “conteúdo” aceitável para o estudante entregar em resposta a uma tarefa que lhe foi incumbida.

Um passo concreto em direção à pedagogia após a IA é mudar o centro da nossa atenção do produto para o processo: tanto dos estudantes quanto de nós próprios. Nas nossas experiências, achamos relativamente fácil determinar quando uma resposta a uma pergunta foi gerada por IA. Por exemplo, na primavera de 2024, Nygren ministrou um curso sobre o Renascimento Italiano. Uma pergunta num questionário realizado pelo Canvas (o Learning Management System [LMS] de sua instituição) perguntava sobre a arte da corte. Cerca de 10% das respostas incluíam referência a Os Embaixadores, de Hans Holbein, uma obra de arte que não foi discutida em aula. Algumas outras respostas usaram Las Meninas, de Velázquez, como exemplo principal, sempre com os mesmos comentários banais sobre o contexto da corte espanhola. De forma semelhante, quando, no outono de 2024, Drimmer elaborou uma pergunta pedindo que os estudantes respondessem ao filme biográfico sobre Hildegard von Bingen, Vision, relacionando-o com os trabalhos que tinham estudado em aula, um ensaio trouxe à tona obras de Dante, cujo nome não apareceu nem uma vez nas aulas ou nas leituras distribuídas. A questão aqui não é quão fácil é vigiar e punir os nossos alunos — atividades que nos fazem desperdiçar o nosso tempo, que nos deixam desiludidos e nos afastam do trabalho real de estar a ensinar —; a questão fundamental aqui é que é necessário coordenar as nossas práticas educativas de forma adequada ao conteúdo do curso, para que assim se impeça que a IA generativa responda ao enunciado de forma satisfatória.

Um exercício que obriga os alunos a tornarem-se conscientes do processo pelo qual formulam respostas aos nossos estímulos é um dos exercícios pedagógicos mais tradicionais no arsenal do historiador da arte. Drimmer faz com que os alunos se sentem numa sala de aula pouco iluminada, observem uma obra em silêncio por vinte minutos e anotem os seus pensamentos. A turma, então, reúne-se novamente não apenas para falar sobre as suas observações, mas também para refletir sobre como foi esse processo. Eles sempre dizem: “é difícil”. Sem exceção, articulam o quão desafiador foi manter o foco quando achavam que não tinham mais nada para escrever e, em seguida, quão inesperado foi conseguir superar uma barreira de estagnação para descobrir mais coisas para ver, pensar e escrever.

Um facto desconfortável que vale a pena articular é que muitos dos estudantes que chegam a universidades como a nossa foram tão mal ensinados  nas suas escolas secundárias que os resultados produzidos pelo ChatGPT frequentemente são melhores do que o que eles conseguem produzir (se por “melhor” entendemos “corretos do ponto de vista gramatical e ortográfico e aderentes às fórmulas sintáticas e estruturais da escrita académica”). Portanto, a sugestão de fazê-los comparar um ensaio gerado por algoritmo com o próprio ensaio deles ou mesmo com trabalhos académicos publicados corre o risco de frustrar o objetivo do exercício; os nossos estudantes podem, ou concluir que, afinal, podem externalizar o seu trabalho escolar para um código, ou então, considerarem que não têm competência para distinguir um texto automatizado e superficial de um ensaio cuidadosamente argumentado por um académico.

Nesse contexto desafiador, precisamos, então, de nos focar menos no produto e muito mais no processo. Precisamos cultivar a atenção dos estudantes. Eles precisam de aprender a prestar atenção às imagens. Eles precisam aprender a prestar atenção às palavras.

No contexto da “economia da atenção”, todas as pessoas que passam algum tempo online, incluindo os nossos alunos, estão constantemente sujeitas à brutal competição pelos seus olhares. Um outro retorno aos métodos tradicionais é tornar a frequência obrigatória e equiparar presença com atenção. Drimmer frequentemente ministra aulas com grande número de alunos e, implementando uma sugestão de um estudante de pós-graduação do seu programa, recentemente começou a registar a frequência produzindo cartões com os nomes dos alunos, que cada um deles levanta numa mesa ao entrar na aula e devolve ao sair (os cartões não retirados no início são registados como ausências). É uma solução elegante e de baixa tecnologia que mostrou resultados imediatos: a média das notas nos exames nas turmas de Drimmer aumentou quase dez pontos desde que ela tornou a frequência obrigatória.

A nossa hipótese é que as notas aumentaram porque agora existe uma tecnologia muito sutil para incentivar os alunos a empenharem-se — tanto literalmente a comparecer às aulas, quanto a dedicarem-se ao conteúdo abordado nelas. A atenção é uma competência que precisa de ser cultivada. Como educadores, tentamos ajudar os  nossos alunos a aprender a processar aquilo que é único. Ajudamo-los a aprender a perceber distinções que fazem diferença e a notar graduações subtis que têm impacto máximo. Essa é uma competência verdadeiramente humana. Quando a “inteligência artificial” tiver “visto” milhões de fotografias de pinturas ou de esculturas, todas as distinções — a singularidade que faz desses objetos produtos da mente e das mãos humanas — terão sido achatadas sob o rolo compressor do “big data”.

Ensinamos os nossos alunos a ver as coisas que são humanas, a valorizar o inesperado e a perceber a variação que quebra o padrão em vez de o repetir. O nosso trabalho como educadores é ensinar os nossos alunos a cultivarem essas capacidades.

Finalmente, precisamos de nos defender a nós mesmos e exigir de nossas universidades planos específicos para apoiar os estudantes na sua aprendizagem de aprender a escrever. Até agora, as administrações universitárias na maior parte têm capitulado, integrando a IA no ensino superior e de maneiras que são financeiramente intensivas, custosas. O ChatGPT não cumpre o FERPA (Lei de Privacidade e Direitos Educacionais da Família, nos EUA), e, portanto, os administradores firmaram contratos com a Microsoft (Copilot) para incorporar IA em softwares licenciados pelas universidades de formas que supostamente preservam a privacidade dos estudantes, enquanto ainda alimentam com dados anonimizados o “processador” dos modelos de linguagem (LLMs). É então que se dão ao trabalho de terem alguma cautela sobre a incorporação em larga escala dessa tecnologia na educação.

Um exemplo ainda mais audacioso é o caso de Califórnia State University, o maior sistema de universidades públicas dos Estados Unidos, que acabou de assinar um contrato de 16 milhões de dólares com a OpenAI para “criar um sistema de ensino superior potencializado por IA”. O comunicado de imprensa da própria universidade vale a pena ser lido na íntegra para perceber as discrepâncias entre a visão de “potencializado” que ela projeta e o que, na nossa opinião, realmente funciona para desenvolver as faculdades críticas e a humanidade dos estudantes[i]. O poder de aprender a escrever não está no produto escrito em si-mesmo, mas no processo de aprender a escrever. No fim das contas, a IA interrompe esse processo e, ao fazer isso, viola todo o contrato educacional.

Se isso soa como propostas pouco empolgantes: ótimo. Uma das seduções do tecnosolucionismo é a promessa de novas ferramentas emocionantes para avançar o projeto de aprendizagem e melhorar a experiência dos estudantes na educação. Essa sedução, na maioria das vezes, é apenas banha da cobra. Não existe nenhuma aplicação informática revolucionária, nenhum truque mágico, nenhuma astúcia genial, nenhuma solução milagre. Talvez precisemos de abandonar a ideia de que isso existe.

 

NOTA

[i] Deixemos aqui os dois primeiros parágrafos do comunicado:
“​​Today, the California State University (CSU), the largest and most diverse public four-year university in the country, announced a first-of-its-kind public-private initiative with some of the world’s leading tech companies, including Adobe, Alphabet,Google, AWS, IBM, Instructure, Intel, LinkedIn, Microsoft, NVIDIA, OpenAI, and the Office of California Governor Gavin Newsom that will leverage the power of artificial intelligence to create an AI-empowered higher education system that could surpass any existing model in both scale and impact
The CSU’s unprecedented adoption of AI technologies will make trainings, learning, and teaching tools—including ChatGPT—available across all 23 CSU universities, ensuring that the system’s more than 460,000 students and 63,000 faculty and staff have equitable access to cutting-edge tools that will prepare them to meet the rapidly changing education and workforce needs of California. The CSU expects to make these tools available within the next few weeks” Fim de citação.

XXX – XXX

Sonja Drimmer é Professora Associada de Arte Medieval no Departamento de História da Arte e Arquitetura da Universidade de Massachusetts Amherst. Christopher J. Nygren é professor associado de arte moderna no Departamento de História da Arte e Arquitetura da Universidade de Pittsburgh.

 

1 Comment

Leave a Reply